联邦学习(FL)试图在本地客户端分发模型培训,而无需在集中式数据中心收集数据,从而消除了数据私人关系问题。 FL的一个主要挑战是数据异质性(每个客户的数据分布可能会有所不同),因为它可能导致本地客户的权重差异并减慢全球融合。当前专为数据异质性设计的SOTA FL方法通常会施加正则化以限制非IID数据的影响,并且是状态算法,即它们随着时间的推移维持局部统计数据。尽管有效,但这些方法只能用于FL的特殊情况,仅涉及少数可靠的客户。对于fl的更典型应用,客户端数量很大(例如,边缘设备和移动应用程序),这些方法无法应用,激发了对任何可用于任何数量客户端使用的无状态方法的无状态方法的需求。我们得出了一阶梯度正则化,以惩罚由于本地数据异质性而导致的本地更新不一致。具体而言,为了减轻权重差异,我们将全局数据分布的一阶近似引入本地目标,该目标凭直觉地惩罚了与全局更新相反方向的更新。最终结果是一种无状态的FL算法,可实现1)在非IID数据分布下,比SOTA方法明显更快地收敛(即较少的通信回合)和2)总体融合性能更高。重要的是,我们的方法不会对客户大小施加不切实际的限制,从而可以从大多数FL应用程序中向大量客户学习。
translated by 谷歌翻译
As Artificial and Robotic Systems are increasingly deployed and relied upon for real-world applications, it is important that they exhibit the ability to continually learn and adapt in dynamically-changing environments, becoming Lifelong Learning Machines. Continual/lifelong learning (LL) involves minimizing catastrophic forgetting of old tasks while maximizing a model's capability to learn new tasks. This paper addresses the challenging lifelong reinforcement learning (L2RL) setting. Pushing the state-of-the-art forward in L2RL and making L2RL useful for practical applications requires more than developing individual L2RL algorithms; it requires making progress at the systems-level, especially research into the non-trivial problem of how to integrate multiple L2RL algorithms into a common framework. In this paper, we introduce the Lifelong Reinforcement Learning Components Framework (L2RLCF), which standardizes L2RL systems and assimilates different continual learning components (each addressing different aspects of the lifelong learning problem) into a unified system. As an instantiation of L2RLCF, we develop a standard API allowing easy integration of novel lifelong learning components. We describe a case study that demonstrates how multiple independently-developed LL components can be integrated into a single realized system. We also introduce an evaluation environment in order to measure the effect of combining various system components. Our evaluation environment employs different LL scenarios (sequences of tasks) consisting of Starcraft-2 minigames and allows for the fair, comprehensive, and quantitative comparison of different combinations of components within a challenging common evaluation environment.
translated by 谷歌翻译
We present AI-SDC, an integrated suite of open source Python tools to facilitate Statistical Disclosure Control (SDC) of Machine Learning (ML) models trained on confidential data prior to public release. AI-SDC combines (i) a SafeModel package that extends commonly used ML models to provide ante-hoc SDC by assessing the vulnerability of disclosure posed by the training regime; and (ii) an Attacks package that provides post-hoc SDC by rigorously assessing the empirical disclosure risk of a model through a variety of simulated attacks after training. The AI-SDC code and documentation are available under an MIT license at https://github.com/AI-SDC/AI-SDC.
translated by 谷歌翻译
In recent years, deep learning has infiltrated every field it has touched, reducing the need for specialist knowledge and automating the process of knowledge discovery from data. This review argues that astronomy is no different, and that we are currently in the midst of a deep learning revolution that is transforming the way we do astronomy. We trace the history of astronomical connectionism from the early days of multilayer perceptrons, through the second wave of convolutional and recurrent neural networks, to the current third wave of self-supervised and unsupervised deep learning. We then predict that we will soon enter a fourth wave of astronomical connectionism, in which finetuned versions of an all-encompassing 'foundation' model will replace expertly crafted deep learning models. We argue that such a model can only be brought about through a symbiotic relationship between astronomy and connectionism, whereby astronomy provides high quality multimodal data to train the foundation model, and in turn the foundation model is used to advance astronomical research.
translated by 谷歌翻译
目的:本研究评估了市售可解释的AI算法在增强临床医生在胸部X射线(CXR)上鉴定肺癌的能力的影响。设计:这项回顾性研究评估了11位临床医生在胸部X光片中检测肺癌的表现,并在有和没有市售的AI算法的帮助下(红点,观察到),预测CXRS可疑的肺癌。根据临床确定的诊断评估了临床医生的表现。设置:该研究分析了NHS医院的匿名患者数据;该数据集由成年患者(18岁及以上)的400张胸部X光片组成,他们在2020年进行了CXR,并提供相应的临床文本报告。参与者:由11位临床医生(放射科医生,放射科医生受训者和报告射线照相师)组成的读者小组参加。主要结果指标:临床医生在CXR上检测肺癌的总体准确性,敏感性,特异性和精度,有或没有AI输入。还评估了有或没有AI输入的临床医生与绩效标准偏差之间的协议率。结果:临床医生对AI算法的使用导致肺部肿瘤检测的总体性能提高,从而达到了在CXR上鉴定出的肺癌的总体增长17.4% ,分别增加了13%和13%的阶段1和2期肺癌的检测,以及临床医生表现的标准化。结论:这项研究在AI算法的临床实用性方面表现出了巨大的希望,可以通过整体改善读者表现来改善早期肺癌诊断和促进健康平等,而不会影响下游成像资源。
translated by 谷歌翻译
我们介绍了一种考虑复杂的环境条件,在极地地区介绍了一种在极地地区长距离海上路线计划的方法。该方法允许构建优化的路线,描述了该过程的三个主要阶段:使用不均匀网格对环境条件进行离散建模,网格最佳路径的构建以及路径平滑。为了说明不同的车辆性能,我们构建了一系列数据驱动的功能,这些功能可以应用于环境网格,以确定给定容器和网格单元的速度限制和燃料要求,以图形和地理空间表示这些数量。在描述我们的结果时,我们展示了一个示例用途,用于Polar Research船RRS David Attenborough爵士(SDA)的路线规划,核算冰的性能特征,并验证韦德尔海地区的时空路线构建,南极洲。我们通过证明路线的变化取决于季节性海冰可变性,所使用的路线规划目标函数的差异以及其他环境条件(如电流)的存在来证明这种路线构建方法的多功能性。为了证明我们的方法的普遍性,我们在北极海洋和波罗的海中介绍了例子。本手稿中概述的技术是通用的,因此可以应用于具有不同特征的血管。我们的方法不仅可以拥有一个船只计划程序,而且我们概述了该工作流程如何适用于更广泛的社区,例如商业和乘客运输。
translated by 谷歌翻译
从自下而上的计算大脑反向构造的长期目标是,本文档的重点是杂色抽象层。首先用状态机器模型描述其操作,开发了基本的宏观体系结构。然后使用支持时间计算的尖峰神经元实现状态机函数。神经元模型基于活跃的尖峰树突,并反映了Hawkins/Numenta神经元模型。通过研究基准来证明该体系结构,其中代理使用宏collumn首先学习,然后导航2-D环境,其中包含随机放置的功能。环境在宏collumn中表示为标记的有向图,其中边缘连接特征,标签表示它们之间的相对位移。
translated by 谷歌翻译
在线少数学习描述了一个设置,在学习新兴课程时,在数据流中对模型进行了培训和评估。尽管从单个室内环境组成的数据流中学习时,在此环境中的先前工作在实例分类中取得了非常有希望的性能,但我们建议扩展此设置,以考虑在一系列室内环境中考虑对象分类,这可能会发生这种情况在机器人技术等应用中。重要的是,我们称之为在线持续学习的环境将灾难性遗忘的灾难性遗忘的问题注入了少量的在线学习范式。在这项工作中,我们在我们的环境中基准了几种现有的方法和改编的基线,并显示灾难性遗忘和在线绩效之间存在权衡。我们的发现激发了这种环境中未来工作的需求,这可以在不灾难性遗忘的情况下实现更好的在线表现。
translated by 谷歌翻译
逆渲染是一个不适的问题。以前的工作试图通过重点关注对象或场景形状或外观的先验来解决这一问题。在这项工作中,我们专注于自然照明的先验。当前方法依赖于球形谐波照明或其他通用表示,充其量是参数的简单先验。我们提出了一个有条件的神经场表示,基于带有警报网络的变异自动描述器,并扩展向量神经元,直接将其构建到网络中。使用此功能,我们开发了一个旋转等值的高动态范围(HDR)神经照明模型,该模型紧凑并且能够表达自然环境图的复杂,高频特征。在自然场景的1.6k HDR环境图的策划数据集上训练我们的模型,我们将其与传统表示形式进行了比较,证明了其适用于反向渲染任务,并通过部分观察显示了环境图的完成。可以在jadgardner.github.io/reni上找到我们的数据集和训练有素的模型。
translated by 谷歌翻译
终身体验和学习知识导致对常见情况倾向于展开的情况的共同期望。这些知识使人们能够毫不费力地解释故事叙述并确定突出的事件。我们使用GPT-3研究自传式与想象故事中的事件叙事流程的差异,是迄今为止创建的最大神经语言模型之一。日记的故事是由人群撰写的关于最近经验丰富的活动或同一主题的想象事件。为了分析这些故事的事件的叙述流程,我们测量了句子*顺序*,它比较了与上述故事上下文的句子的概率。我们发现,想象的故事比自传故事更高的顺序,并且当自新召回时,自传故事的顺序高度较高。通过在故事句子中的事件的注释,我们发现故事类型包含类似的主要突出事件的比例,但自传故事是在事实上的小事中的密集。此外,与想象的故事相比,自传故事包含与第一人称,认知过程,时间,空间,数字,社交词和核心驱动器和需求相关的更多具体的单词和词汇。我们的调查结果强调了调查记忆和认知的机会,具有大规模的统计语言模型。
translated by 谷歌翻译